其他
【源头活水】图神经网络GraphSage:远亲不如近邻
“问渠那得清如许,为有源头活水来”,通过前沿领域知识的学习,从其他研究领域得到启发,对研究问题的本质有更清晰的认识和理解,是自我提高的不竭源泉。为此,我们特别精选论文阅读笔记,开辟“源头活水”专栏,帮助你广泛而深入的阅读科研文献,敬请关注。
地址:https://www.zhihu.com/people/xie-ming-chen
01
最简单的aggragator就mean pooling这种,这种方案最大的弊病是aggregator不是trainable的,效果比较一般。 复杂一些的可以使用lstm,但是lstm处理数据是有序的,为了改造成无序,在训练时直接输入random的node近邻,这个该找方案也是够简单粗暴的,我有一点confuse的在于node近邻本身就是random的为何还要random输入。 最后作者提到了一种trainable and symetric的aggregator,node近邻各节点独立输入到网络中后进行elementwise的max-pooling。简单的来说就是mlp外边套了一个max,mlp的作用在于学习到近邻中各个节点的信息,max的作用在于能够学习到近邻节点综合起来的信息,作者提到这个地方用mean和max的效果基本是一致的。
02
本文目的在于学术交流,并不代表本公众号赞同其观点或对其内容真实性负责,版权归原作者所有,如有侵权请告知删除。
“源头活水”历史文章
图神经网络笔记-GraphSage的采样聚合
用概率分布评估检测框质量的 Generalized Focal Loss V2
YOLO之外的另一选择,手机端97FPS的Anchor-Free目标检测模型NanoDet现已开源~
大白话 Generalized Focal Loss V2
impersonator-你的舞蹈我来跳
Mixtext 半监督分类
“她”教你从失败中学习
丢弃Transformer,FCN也可以实现E2E检测
目标检测新范式!港大同济伯克利提出Sparse R-CNN
Meta Transfer Learning for Few Shot Learning
浅谈多任务与联邦学习
Stacked Capsule AutoEncoder-堆叠的胶囊自编码器
针对强化学习中策略迁移的选择性探索算法
详解Transformer (Attention Is All You Need)
浅谈图上的自监督学习——对比学习
更多源头活水专栏文章,
请点击文章底部“阅读原文”查看
分享、点赞、在看,给个三连击呗!